50% DE DESCONTO EM PLANOS ANUAIS
CYBER MONDAY
ATÉ DEZEMBRO 5th
Ahmar Naseer
8/23/2024
Se você não conhece a IA, deve estar vivendo sob uma rocha porque a inteligência artificial conquistou o mundo! A IA está se desenvolvendo na velocidade da luz, e a mais recente tecnologia inovadora de aprendizado profundo que está chamando a atenção (literalmente) é a **IA profundamente falsa.
A IA pode ser usada tanto para o bem quanto para o mal, mas como o deep fake impactou o mundo virtual? O que está no cerne desta tecnologia e como é que esta forma avançada de IA altera a realidade?
Continue lendo para aprender tudo sobre essa tecnologia de ponta e suas implicações.
Você já viu um filme em que o rosto de um ator é trocado pelo de outra pessoa? Isso é exatamente o que a IA profundamente falsa faz. É uma forma de inteligência artificial que utiliza algoritmos de aprendizagem profunda para resolver problemas usando grandes conjuntos de dados. Até o nome 'deep fake' deriva da combinação do aprendizado profundo e dos resultados falsos que ele cria!
Deep fake é usado para trocar rostos, corpos e vozes, criando vídeos e áudio convincentes, mas falsos. Na verdade, a Gartner, uma empresa líder em pesquisa de tecnologia, prevê que até 2026, 30% de todas as empresas considerarão a identificação e a verificação inúteis devido ao aumento dos deepfakes de IA.
IA profundamente falsa é frequentemente usada para alterar vídeos e áudio para dizer ou fazer coisas que as pessoas não fizeram ou disseram. No entanto, também pode ser usado para criar conteúdo original.
Então, como funciona essa tecnologia cativante? Muitas vezes chamado de 'IA que engana', o conteúdo profundamente falso é criado quando dois algoritmos concorrentes complexos são usados juntos. Isso cria a **Rede Adversarial Generativa (GAN).
Os dois algoritmos concorrentes são:
Esses dois algoritmos se combinam para formar o GAN, que usa aprendizado profundo para estudar e identificar diferentes padrões em imagens para criar falsificações refinadas.
Ao criar imagens falsas profundas, o sistema GAN visualiza a imagem de diferentes ângulos para montar falsificações perfeitas.
Ao criar vídeos falsos profundos, o GAN estuda o vídeo, os movimentos e os padrões de comportamento de diferentes ângulos para criar um vídeo falso.
Vídeos profundamente falsos podem ser de dois tipos:
Neste método, um autoencoder analisa as expressões faciais, gestos, movimentos e padrões do alvo a partir de um vídeo original. O autoencoder então impõe expressões e movimentos específicos do alvo ao vídeo que será alterado.
Outra forma de criar vídeos deep fake é usando a técnica de troca de rosto, em que o rosto do alvo é trocado pelo corpo de outra pessoa, obrigando-o a fazer ou dizer coisas que na verdade não disse.
Deep fakes de áudio estão se tornando muito comuns e Natural Language Processing é usado para criá-los. Os algoritmos da PNL clonam a voz alvo, identificando padrões e características marcantes.
Esses padrões são então usados para clonar a voz e os programadores podem fazer com que ela diga o que quiserem. Os padrões são identificados usando amostras da voz alvo. Quanto mais amostras forem usadas para criar o clone, mais preciso será o áudio falso profundo. Todo o processo é chamado de clonagem de voz.
Fakes profundos de áudio são usados no nicho de jogos, na indústria de rádio e para fins de streaming.
A sincronização labial é uma das formas mais comuns de usar deep fakes. Ele usa gravações de voz junto com recursos visuais para dar a impressão de fala. Pode ser altamente enganoso, especialmente se o áudio também for profundamente falso.
Está se tornando mais fácil para o homem comum usar a tecnologia mais recente para desenvolver vídeos, áudio e deepfakes fotográficos. Vamos dar uma olhada nas várias plataformas online e tecnologias necessárias para fazer falsificações profundas:
Conforme discutido acima, o GAN combina dois algoritmos exclusivos para criar falsificações profundas. O GAN é crucial para IAs deepfake e é usado em todos os deepfakes criados.
CNNs são usadas para reconhecimento facial e para analisar vários padrões de movimento.
Os autoencoders identificam as características específicas do alvo, como um padrão de comportamento, movimento específico ou expressões faciais. Eles então os mesclam no vídeo profundamente falso.
Conforme mencionado anteriormente, a PNL identifica os atributos da fala do alvo e os utiliza para criar um texto original.
A computação de alto desempenho, ou HCP, refere-se aos supercomputadores que executam algoritmos de IA necessários para criar falsificações profundas.
A IA profundamente falsa conquistou um nicho para si mesma no mundo digital em rápido avanço. A seguir estão alguns campos onde deep fakes são usados:
A IA deixou uma marca indelével na indústria do entretenimento. É amplamente utilizado para clonar atores e suas vozes, para produzir cenas que são difíceis de filmar durante a pós-produção se um ator não estiver disponível ou simplesmente para economizar tempo de produção.
Também é usado na indústria musical para criar novas músicas com as vozes de cantores existentes. Houve vários deepfakes de atores famosos como Morgan Freeman, Tom Cruise e até mesmo da cantora Taylor Swift.
Um desses vídeos do ator Morgan Freeman no YouTube parece quase real. Ele obteve milhões de visualizações.
Várias empresas usam IA de áudio para criar vozes para tarefas simples relacionadas a atendimento ao cliente, gerenciamento de contas, solução de problemas e apresentação de reclamações para bancos e outras empresas.
Deep fakes de áudio são amplamente usados no setor de suporte ao cliente para ajudar a responder perguntas, solucionar problemas e aumentar a satisfação e retenção do cliente.
Também pode ajudar a aumentar o número de clientes, comunicando-se em diferentes idiomas. Por exemplo, Synthesia, o aplicativo de treinamento de teclado de piano na Play Store atende a mais de 40 idiomas diferentes!
Um uso infeliz de IA falsa e profunda é chantagem. Muitas vezes é usado para difamar e acusar falsamente o alvo de extorsão. O exemplo mais comum é quando o alvo é colocado em situações explícitas e inadequadas.
Alguns exemplos de chantagem usando deep fake:
Deep fakes também têm sido usados para cometer roubo de identidade e fraude bancária.
Infelizmente, a IA profundamente falsa também tem sido usada para personificação. Vários golpes e crimes foram cometidos usando essa tecnologia quando pessoas se passaram por outra pessoa e roubaram grandes somas de dinheiro.
Um exemplo recente de tal fraude é quando uma empresa multinacional em Hong Kong reivindicou uma perda de 25 milhões de dólares. Isso aconteceu por causa de um vídeo profundamente falso, representando o diretor financeiro da empresa por meio de uma videoconferência. O vídeo enganou os funcionários para que transferissem dinheiro para a conta bancária do fraudador.
Sabe-se também que muitas pessoas com mentalidade criminosa usam falsificações profundas para criar provas falsas para apresentar nos tribunais.
Por exemplo, o AI deep fake pode ser usado para estudar e clonar as expressões faciais e ações de um criminoso. Depois, pode fabricar um álibi e criar vídeos falsos, mostrando-os presentes em outro lugar, longe da cena do crime.
Muitas vezes, podem ser criadas falsificações profundas de políticos ou de outro pessoal de confiança, que são utilizadas para espalhar desinformação entre o público. Isso leva à disseminação de notícias falsas, que é uma forma de desorientar o público.
Por exemplo, uma imagem do Pentágono surgiu nas redes sociais no início de 2023, mostrando que uma explosão ocorreu perto o prédio. Esta foi uma imagem feita com IA e era falsa. Isso leva à queda do mercado de ações devido à disseminação de notícias falsas.
A difamação é outra forma de divulgar informações falsas sobre alguém, seja por escrito ou verbal. A IA profundamente falsa tem sido usada descuidadamente nesse sentido.
Um exemplo recente desta fraude envolveu a proeminente jornalista inglesa Martine Lewis, que moveu uma ação judicial contra o Facebook por promover anúncios online com o seu nome para investimentos relacionados com bitcoin que ele nunca endossou. Embora um terceiro tenha veiculado esses anúncios, o Facebook teve que pagar para resolver a disputa.
Embora a IA profundamente falsa seja legal, ainda pode representar uma grave ameaça para a sociedade. Deep fakes só são ilegais se violarem leis como difamação, pornografia infantil ou discurso de ódio. Então, enquanto trilhamos a linha tênue entre o legal e o ilegal, como os deepfakes causam danos?
No geral, deep fake não é de todo ruim, mas os maus usos dos deepfakes são preocupantes. E nesta fase, os maus usos superam os bons, por isso temos que ter cuidado ao avaliar essas informações falsas.
Vamos dar uma olhada em como o deep fake está sendo usado para melhorias em vários setores da vida:
Então, com as falsificações profundas sendo tão predominantes online, como você pode se proteger de se tornar uma vítima? Existem várias práticas que você pode adotar para detectar IA; aqui estão alguns deles:
Então, a IA pode detectar deepfakes? A popularidade e o aumento das falsificações profundas levaram várias empresas multinacionais de tecnologia a investir em tecnologia e ferramentas que possam detectar IA.
A Isgen está na vanguarda da promoção do uso seguro da IA. Atualmente, estamos trabalhando no desenvolvimento de tecnologia para identificar áudio e deep fake. Será um grande marco para garantir o uso ético de tecnologia profundamente falsa.
Estamos caminhando para uma pandemia online? O uso de IA profundamente falsa de maneira fraudulenta para fins de chantagem ou roubo de identidade está aumentando. Nas mãos erradas, qualquer tecnologia pode ser usada para prejudicar os indivíduos e a sociedade em geral. Deep Fake é um excelente exemplo dessa tecnologia.
Devemos garantir que o público esteja consciente dos danos que a IA pode causar e que sejam desenvolvidas ferramentas baratas de deteção de IA para combater as pessoas que utilizam a IA de forma negativa. Muitas empresas líderes de tecnologia estão trabalhando no desenvolvimento de ferramentas avançadas para combater a IA. Mas, por enquanto, parece que os humanos podem estar perdendo a batalha para a IA.